AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
万字长文解读Scaling Law的一切,洞见LLM的未来

万字长文解读Scaling Law的一切,洞见LLM的未来

万字长文解读Scaling Law的一切,洞见LLM的未来

近日,资深机器学习研究科学家 Cameron R. Wolfe 更新了一篇超长的博客文章,详细介绍了 LLM scaling 的当前状况,并分享了他对 AI 研究未来的看法。

来自主题: AI技术研报
6181 点击    2025-02-02 17:39
原来,这些顶级大模型都是蒸馏的

原来,这些顶级大模型都是蒸馏的

原来,这些顶级大模型都是蒸馏的

「除了 Claude、豆包和 Gemini 之外,知名的闭源和开源 LLM 通常表现出很高的蒸馏度。」这是中国科学院深圳先进技术研究院、北大、零一万物等机构的研究者在一篇新论文中得出的结论。

来自主题: AI技术研报
7972 点击    2025-01-29 13:26
跟硅谷的核心AI公司聊完后,得到了这 60 条关键洞察

跟硅谷的核心AI公司聊完后,得到了这 60 条关键洞察

跟硅谷的核心AI公司聊完后,得到了这 60 条关键洞察

对 LLM 来说,Pre-training 的时代已经基本结束了。视频模型的 Scaling Law,瓶颈还很早。具身智能:完全具备人类泛化能力的机器人,在我们这代可能无法实现

来自主题: AI资讯
6914 点击    2025-01-24 12:57
实时监测全球媒体热点,还有比Grok AI更好用的工具吗?

实时监测全球媒体热点,还有比Grok AI更好用的工具吗?

实时监测全球媒体热点,还有比Grok AI更好用的工具吗?

Grok AI 最近网页版刚刚上线。我看到不少人都在比较 Grok 对标 ChatGPT 等等 LLM 大模型的研究和生成能力。我想说,背靠 X (前推特)数据库的 Grok AI,最好的使用方式难道不是实时监测全球媒体热点吗?

来自主题: AI资讯
7146 点击    2025-01-21 10:05
Transformer²要做「活」的AI模型,动态调整权重,像章鱼一样适应环境

Transformer²要做「活」的AI模型,动态调整权重,像章鱼一样适应环境

Transformer²要做「活」的AI模型,动态调整权重,像章鱼一样适应环境

自适应 LLM 反映了神经科学和计算生物学中一个公认的原理,即大脑根据当前任务激活特定区域,并动态重组其功能网络以响应不断变化的任务需求。

来自主题: AI技术研报
5128 点击    2025-01-15 18:30
科研界的"哥白尼时刻"已到来!AMD的Agent Laboratory能自己查文献、写论文、整代码

科研界的"哥白尼时刻"已到来!AMD的Agent Laboratory能自己查文献、写论文、整代码

科研界的"哥白尼时刻"已到来!AMD的Agent Laboratory能自己查文献、写论文、整代码

发表于昨天的论文《Agent Laboratory: Using LLM Agents as Research Assistants》对于科研界具有划时代意义,过去几周才能完成的科研任务现在仅需20分钟到一两个小时左右(不同LLM),花费2-13个美金的Token即可完成!

来自主题: AI技术研报
3309 点击    2025-01-10 11:13
AI 医疗赛道最受关注的独角兽:5000万ARR、25亿估值,AI Scribe场景PMF已验证

AI 医疗赛道最受关注的独角兽:5000万ARR、25亿估值,AI Scribe场景PMF已验证

AI 医疗赛道最受关注的独角兽:5000万ARR、25亿估值,AI Scribe场景PMF已验证

在 LLM 落地场景中,医疗领域的应用开始展现出比较高的确定性,尤其是 AI scribe 产品能解决临床文档记录枯燥、耗时这一行业痛点。Abridge 是其中最有代表性的公司,训练了专用于临床文档的 ASR 和文本生成模型,能够替代 90% 左右的人工工作量。

来自主题: AI资讯
3018 点击    2025-01-04 15:54
数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

数据不够致Scaling Law撞墙?CMU和DeepMind新方法可让VLM自己生成记忆

最近 AI 社区很多人都在讨论 Scaling Law 是否撞墙的问题。其中,一个支持 Scaling Law 撞墙论的理由是 AI 几乎已经快要耗尽已有的高质量数据,比如有一项研究就预计,如果 LLM 保持现在的发展势头,到 2028 年左右,已有的数据储量将被全部利用完。

来自主题: AI技术研报
8469 点击    2025-01-03 15:46